Medien: KI der US-amerikanischen FDA leidet unter „Halluzinationen“

Ein neuer Chatbot der US-amerikanischen Food and Drug Administration (FDA) scheint falsche Ergebnisse zu liefern – sogenannte „Halluzinationen“, die bei generativen KI-Modellen auftreten. Dies geht aus einem CNN-Bericht hervor, der auf mehreren Interviews mit aktuellen und ehemaligen Mitarbeitern der Behörde basiert.
Zu den verschiedenen Antworten von Elsa, dem Chatbot, den die FDA letzten Monat vorstellte, gehörten irreführende Angaben zu Arzneimittelklassen, die für Kinder geeignet oder für bestimmte Anwendungen zugelassen seien. „In beiden Fällen lieferte die KI falsche Antworten“, schreibt CNN. Elsa soll außerdem tatsächliche wissenschaftliche Studien falsch dargestellt und Forschungsergebnisse gefälscht haben, die nie durchgeführt wurden.
„Künstliche Intelligenz soll uns Zeit sparen“, sagte ein Mitarbeiter gegenüber CNN, „aber ich versichere Ihnen, dass ich mehr Zeit verschwende als früher, gerade weil ich wachsamer sein muss.“ Im Anschluss an den Artikel des Nachrichtensenders stellte die FDA klar, dass der Einsatz des Chatbots noch experimentell und freiwillig sei.
Ein Sprecher der Behörde erklärte gegenüber Engadget, dass „die Informationen, die die FDA an CNN übermittelte, falsch dargestellt und aus dem Kontext gerissen wurden“, und verwies auf Gespräche mit „ehemaligen Mitarbeitern und Angestellten, die die aktuelle Version von Elsa nie verwendet haben“.
ansa